为了解决目标跟踪中的尺度变化、相似性干扰、遮挡等问题,提出一种基于实例分割与毕达哥拉斯模糊决策的目标跟踪算法。在实例分割网络YOLACT++ (improved You Only Look At CoefficienTs)的基础上,融合3种不同的匹配方式针对不同场景预测跟踪结果;同时提出一种基于毕达哥拉斯模糊决策的模板更新机制,即根据预测结果的质量作出是否更新目标模板和更换匹配方式的决定。实验结果表明,所提算法能够更准确地跟踪存在尺度变化、相似性干扰、遮挡等问题的视频序列。相较于SiamMask算法,所提算法在DAVIS 2016、DAVIS 2017数据集上的区域相似度分别提高了12.3、15.3个百分点,在VOT2016、VOT2018数据集上的预期平均重叠率(EAO)分别提高了4.2、4.1个百分点,且所提算法的平均跟踪速度为每秒32.00帧,满足实时性要求。